#AI 行業
CPO,過熱了?
在AI基礎設施被資本與產業合力推向發展高潮的當下,凡是與“光”“互聯”“頻寬”“功耗”掛鉤的技術方向,都極易被貼上“下一代核心技術”的標籤,迅速成為市場追逐的焦點,其中共封裝光學(CPO),正是這股熱潮中最具代表性的存在。然而,就在行業對 CPO 的討論熱度節節攀升之際,博通首席執行長陳福陽(Hock Tan)卻在2025 財年第四季度財報電話會議上,為這股狂熱情緒澆下一盆冷水。“矽光子學在短期內不會在資料中心發揮實質性作用。”陳福陽並未簡單粗暴地否定這項先進技術地未來,他在後續問答中解釋,矽光子、CPO 絕非對現有技術的“跳躍式”替代方案,而是需要在既有互聯技術路徑的潛力被徹底榨乾後,才會被產業被動啟用的終極選擇。他將整個互聯技術的演進邏輯清晰梳理:首先是機架級銅互聯的規模化落地,隨後是可插拔光模組(Pluggable Optics)的持續迭代升級,唯有當這兩條技術路徑均觸及物理性能與經濟成本的雙重極限,矽光子 / CPO 才會真正成為行業剛需。“這一天一定會到來,但不是現在。”當然,給CPO降溫的並非只有博通一家。在最新的巴克萊第 23 屆全球技術大會上,包括Arista、Credo、Marvell、Astera、Lumentum在內的一眾行業頭部企業,均傳遞出了相似的聲音。從“算力不足”到“互聯焦慮”事實上,過去幾年裡,AI行業已經逐漸走出了早“單純堆算力的階段。即便是輝達這樣的算力王者,也在有意淡化對單點計算性能的強調,轉而反覆突出互聯、網路以及系統級架構的重要性——因為在大模型時代,真正決定上限的,早已不只是晶片本身。隨著模型參數規模與叢集規模同步呈指數級擴張,AI叢集的核心瓶頸也開始悄然從計算能力轉向互聯能力。此時考驗行業巨頭的,已不再只是能否豪擲重金採購更多GPU,而是如何在超大規模系統中實現高效互聯:通訊效率是否足夠高、延遲是否可控、系統能否穩定協同運行,正逐步成為決定算力能否“用得起來”的關鍵因素。行業顯然早已預見到這一變化。博通首席執行長陳福陽在財報電話會議中透露,其客戶正在規劃和部署規模超過10萬顆GPU的超大型AI叢集;而Arista在技術大會上進一步指出,行業內部討論的目標,已經指向百萬GPU等級的叢集架構。多位產業領袖的判斷趨於一致:當AI叢集規模從數千顆GPU擴展到數十萬、乃至百萬等級時,網路不再只是“頻寬夠不夠”的問題,而是演變為一整套系統性挑戰——包括互聯可靠性、功耗上限、可維護性以及整體部署節奏。正因如此,過去一年中,巨頭們反覆強調的關鍵詞也發生了明顯變化:Scale-Out(橫向擴展)、Scale-Up(縱向擴展)、Scale-Across(跨域擴展),以及功耗牆、鏈路可靠性、系統級協同設計……這些看似偏“工程化”的概念,實則標誌著行業對AI基礎設施瓶頸認知的一次深刻轉向——AI的競爭重心,正在從算力本身,全面邁向互聯與系統能力。橫向擴展用不到首先來說橫向擴展(Scale-Out),這一概念往往稱為叢集系統,通過增加獨立的伺服器來分散工作負載,從而提高計算容量,類似於輝達InfiniBand。對於巨頭而言,橫向擴展目前似乎還用不到CPO。博通陳福陽的表態最具代表性:800G可插拔技術於2022年推出,增長周期將持續至2026年;1.6T產品已進入量產,預計增長至少持續到2029年;3.2T技術已完成展示。“未來5-7年,可插拔光模組仍將佔據主導地位,這也是橫向擴展領域的CPO技術尚未被廣泛採用的原因。”Lumentum的袁武鵬進一步細化了2026年的市場結構預測:光連接埠總量將達到6000萬-7000萬個,同比增長接近翻倍。其中800G連接埠約佔55%-60%,1.6T連接埠約佔15%-20%。這一資料表明,即便1.6T技術已經就緒,800G仍將是2026年的絕對主流,行業並未出現“激進躍遷”。Marvell首席營運官Chris Koopmans的觀點進一步強化了這一判斷:“橫向擴展領域的CPO技術最終會到來,但仍需數年時間。在傳輸距離較長、需要互操作的市場中,可插拔產品的採用速度較慢。”他特別指出,客戶已經完成400G產品的軟體認證,當800G產品推出後,從400G向800G的遷移“幾乎是即時完成的”,新部署項目迅速採用了800G解決方案——這正是軟體預認證帶來的生態優勢,也是可插拔架構的核心護城河。Arista也強調,在1.6T速率下,“我們仍然有信心實現低功耗光模組(LPO)的穩定運行;同時,共封裝銅纜(CPO)等技術也在評估之中,這些都是潛在的差異化優勢。率先推出下一代速率產品並快速實現商業化,是我們的核心差異化策略之一。”縱向擴展也不著急?縱向擴展(Scale-up)專注於升級單台伺服器或基於機箱的系統,通過向現有系統增加晶片來提升算力,它曾被視為CPO技術的“第一戰場”,是CPO最有希望應用的場景。但在這個最需要CPO的場景中,量產時間表也被大幅推遲。CPO的急先鋒Marvell收購Celestial AI後給出了新的營收目標:2027年底年化營收達5億美元,2028年底翻倍至10億美元。其解釋道,這一時間表主要基於首款產品和首個客戶的落地情況。Celestial AI帶來的16太位元芯粒產品,其性能是橫向擴展領域最先進1.6T產品的10倍,具有完全不同的外形尺寸、密度、頻寬和技術特性——但即便如此,大規模商業部署仍被推遲至2027-2028年。Astera Labs的Jitendra Mohan給出了更為詳細的時間預判:“隨著系統複雜度提升、資料速率增長,以及客戶希望將縱向擴展領域從1個機櫃擴展到2-4個機櫃,轉向光學技術將成為必然選擇。我們與客戶就這一交匯點展開了深入合作,預計將在2028-2029年實現大規模部署。但光學技術的部署不會一蹴而就,2027年將進行一些測試性部署,為2028年的大規模部署做準備。”為什麼即便是最需要的場景,CPO應用時間表也被推遲?Lumentum的袁武鵬給出了供應鏈視角的解釋:“CPO供應鏈仍相對較新,需要時間來提升產能以支援大規模需求。因此,當前的供應限制並非源於基礎產能不足,而是因為供應鏈尚不成熟,供應商需要時間來適應需求增長。”Credo的CEO Bill Brennan則從產能角度分析:“縱向擴展場景的需求將是現有需求的數倍。我們目前已經在積極擴大產能,而縱向擴展場景將進一步大幅提升產能需求。這需要整個行業的共同努力,我們正在與多個客戶就此展開溝通,並已開始相關工作。”更深層的原因,是各種過渡方案的生命力超出預期。Astera Labs的Mohan坦言:“客戶之所以不願轉向光學,是因為光學技術需要更高的功耗和成本。”而博通則強調:“我們認為CPO是正確的技術方向,但我們不確定這些產品是否會完全部署,因為我們的工程師和行業同行會儘可能通過機櫃內銅纜和可插拔光模組實現縱向擴展,只有當可插拔光模組和銅纜都無法滿足需求時,矽光子技術才會成為必然選擇。”功耗與可靠性:比頻寬更真實的約束條件對於巨頭而言,功耗和可靠性正是他們遲遲不願意全面擁抱CPO的重要原因之一。Credo的Bill Brennan用具體案例闡釋了這一挑戰的嚴重性:xAI原本使用基於雷射的光模組連接18個機櫃的叢集,後來計畫遷移到液冷設施,將機櫃數量從18個壓縮到6個。團隊向Credo提出:“如果你們能生產7米長的線纜,我們就能建構一個‘零中斷’叢集。”因為銅纜解決方案的可靠性眾所周知,是絕對穩定的。“零中斷”這個概唸給了行業巨大啟發。Bill Brennan指出,從那時起,Credo的團隊開始重點攻克可靠性難題,“尤其是針對GPU與第一級交換機(T0)之間的鏈路。我們最近推出的所有產品,其差異化優勢核心都圍繞可靠性展開。”在巨頭看來,互聯技術首先要可靠可控,而非一味追求極限性能;可預測、可診斷、可維護,往往比“理論最優”更重要。Lumentum的袁武鵬在談到ZeroFlap光學解決方案時,詳細闡述了這一理念的技術實現。他指出,甲骨文與xAI一樣面臨鏈路中斷問題,但他們的鏈路長度遠超7米,只能採用基於雷射的光模組。Lumentum的方案核心是:在鏈路中斷髮生前識別潛在風險,並通過主動干預加以緩解。具體而言,Lumentum重新設計了定製化光學DSP,使其能夠在帶內(in-band)通訊——即在傳輸高速資料的同時,實現DSP之間的雙向通訊,傳輸遙測資料。然後將試點軟體進行深度整合,將原始資料轉化為可用的遙測資料;再通過交換機SDK實現與客戶網路的整合。“如今,我們能夠為客戶提供即時、持續的遙測資料,包括訊號強度與接收靈敏度、前置誤位元率、後置技術直方圖等;還能識別靜電放電(ESD)損壞、檢測光纖上的灰塵。這一解決方案遠超傳統雷射光模組的系統級能力。”就目前而言,短距互聯的可靠性上限,依然掌握在銅纜/ AEC手中,CPO並非替代者,其優勢更多來自距離、密度和系統可觀測性。Arista在演講中還提到了功耗這一行業關注的核心問題。“我們產品的功耗通常比同類產品低約25%——當大規模部署產品時,這一優勢將尤為顯著。當前,功耗是行業關注的核心問題之一,低功耗交換機無疑具備很強的市場吸引力。”過度方案,正在“吃掉”CPO的敘事空間值得關注的是,LPO、AEC、ALC等過渡方案也在持續蠶食、分流原本被寄望於CPO的應用空間。越來越多廠商在實踐中形成了一種微妙的共識:現有互聯生態遠未觸及邊界,CPO並非唯一答案,也不是當下的終局。LPO(線性驅動可插拔光模組)被視為一種替代方案。Arista稱,LPO技術“可以說是Arista向行業輸出的前瞻性創新”,其聯合創始人Andy Bechtolsheim提出了這一概念,並推動行業廣泛採用。“目前,800G速率的LPO光模組已實現大規模部署,該技術為客戶帶來了顯著的成本優勢:由於無需數字訊號處理器(DSP),資本支出更低;同時功耗更低,營運支出也相應減少,客戶可以將節省的功耗預算用於部署更多計算裝置。我們有信心在1.6T速率下實現LPO技術的穩定運行。”LPO的邏輯是“去DSP → 降功耗、降成本”,對交換機與光模組廠商來說,這是“架構最佳化”,而非“生態重構”,相對應的,AEC(有源電纜元件)與ALC(有源光纜)的邏輯則是在2–30米這個最密集、最關鍵的互聯區間,提供接近銅纜的可靠性 + 接近光學的頻寬。Credo的Bill Brennan強調,AEC在資料中心的應用場景非常廣泛,“除了多種解決connectivity問題的方案外,無論是後端網路的橫向擴展/縱向擴展交換機機櫃、前端連接,都存在大量超越標準的創新機會。因此,AEC領域將持續湧現更多創新。”他特別指出,Credo的獨特之處在於開創了這個市場,且“必須深入產業鏈各個環節,對產品的每一個方面都承擔責任”——這種端到端掌控能力,構成了難以踰越的競爭壁壘。Marvell推出的“黃金線纜計畫”,正是AEC這一邏輯的延伸。Marvell的Chris Koopmans指出,線纜產品與光模組本質上沒有區別,超大規模客戶希望實現多源供應。“我們的‘黃金線纜計畫’本質上是一個完整的參考設計,向相關企業展示如何打造符合要求的產品。之所以能實現這一點,是因為我們的DSP在PAM4技術方面性能強勁、功能強大,能夠適配各類線纜——我們無需端到端控制和定義整個產品,而這正是客戶想要的。”ALC技術則是另一個重要方向。Credo的Bill Brennan指出,當行業最終需要CPO替代方案時,“我們在ALC中投入的微LED技術將直接應用於近封裝光學(near-package optics),其功耗僅為CPO的1/3,且無需像當前展會上展示的那樣採用複雜的交換機設計。因此,我們認為當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”CPO的現實問題清單綜合多家公司的表態,CPO面臨的挑戰高度一致,且集中在工程與商業層面而非技術可行性。可維護性是最突出的痛點。Lumentum的袁武鵬直言,CPO技術“經過多代演進,其核心目標是降低成本和功耗。目前行業仍在解決可維護性等相關問題,我們相信隨著技術成熟,CPO將得到廣泛應用。”博通的陳福陽更明確指出CPO的三大根本缺陷:“從成本來看,CPO肯定更貴;從可靠性來看,基於雷射的CPO遠不如現有技術;從功耗來看,它也不是當前討論的所有技術中最低的。這些缺陷導致CPO遲遲未能量產。”系統設計複雜度是另一重障礙。Marvell的Chris Koopmans指出,縱向擴展領域所需的光互聯技術是一種完全不同的技術類型,必須直接與千瓦級XPU和交換機共封裝,具有完全不同的外形尺寸、密度、頻寬和技術特性。Astera Labs的Jitendra Mohan補充道,光鏈路由三個元件構成:電積體電路(EIC)、光子積體電路(PIC)和連接器——“連接器是關鍵元件,負責將光子積體電路的光輸出耦合到光纖,目前限制了光學技術的規模化(量產數百萬EIC和PIC相對容易,但可靠地連接光纖等環節面臨挑戰)。”成本結構不確定性困擾著所有參與者。博通的判斷最為直接:“從成本來看,CPO肯定更貴。”這不是便宜的光模組,而是昂貴的系統工程——散熱、供電、測試、維修全部需要重構。除此之外,生態尚未形成,需要交換機、光學、封裝、軟體協同成熟。Lumentum的袁武鵬在談到橫向擴展CPO時指出,“客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”而對於新技術,這種生態成熟度的建立需要多年時間。為什麼超大規模雲廠商不著急?有趣的是,即便是技術最激進、資金最充裕的超大規模雲廠商,對CPO的態度也異常謹慎。Lumentum的袁武鵬給出了一線觀察:“目前,客戶仍然更傾向於依賴現有的供應鏈,因為他們已經建立了高度的信任——知道這些供應商能夠實現產能爬坡,且產品可靠性、質量都有保障,而這種信任需要時間積累。尤其是現在,客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”這透露出了一個行業關鍵矛盾:CPO技術的部署窗口,與超大規模客戶的部署節奏存在根本性錯配。Arista的Hardev Singh在談到雲客戶需求時指出:“二級雲廠商和企業客戶的合作模式略有不同:這些客戶有明確的需求和上市時間要求,他們關心的是‘供應商是否能提供現成的網路解決方案,快速部署並投入使用’。而與超大規模雲廠商的合作則完全不同——他們始終追求前沿技術,傾向於採用尖端創新方案。”但即便是“始終追求前沿技術”的超大規模雲廠商,在面對CPO時也表現出了審慎態度。原因何在?第一,可靠性要求極高,容錯空間為零。Credo的Bill Brennan反覆強調:“在超大規模客戶使用的任何人工智慧系統中,除了XPUs等定製加速器,還包含大量其他元件,因此我們認為以系統形式銷售並對整個系統承擔全部責任是合理的。”而CPO技術一旦出現問題,是“整板級風險”,遠超可插拔光模組的故障隔離能力。第二,維運體系的慣性巨大。Lumentum的袁武鵬指出,所有超大規模雲廠商“都擁有自己的網路團隊”,已經建立了完善的認證、測試、維運流程。Marvell的Chris Koopmans補充道:“客戶的認證周期通常在一年前就已啟動,即使後來推出性能合格的產品,要在多個模組生態系統、多種雷射類型以及所有超大規模客戶要求的特定外形尺寸中完成認證,也需要很長時間。而如今,客戶最關注的首要因素是上市時間。”第三,供應鏈安全優先於技術領先。博通陳福陽在財報會議上強調:“隨著需求增長和創新封裝的需求提升,封裝已成為一項極具技術性的挑戰。建設新加坡工廠的核心目的是部分內部化先進封裝產能——我們認為,基於強勁的需求,內部化封裝不僅能最佳化成本,更能保障供應鏈安全和交付穩定性。”而CPO技術的供應鏈成熟度,遠低於可插拔光模組。第四,架構靈活性需求強烈。Astera Labs的Jitendra Mohan指出:“目前,許多客戶仍在規劃整體架構。如果將所有功能都整合到單片晶片中,客戶現在就必須做出決策。但在行業標準尚未最終確定、另一端的交換機尚未推出的情況下,誰會冒險將所有賭注押在某一種協議上?”而可插拔架構恰恰提供了這種靈活性。Marvell的Chris Koopmans總結道:“歸根結底,我們需要評估每個機會:我們的角色是什麼?客戶是否要求我們這樣做?我們能帶來什麼差異化價值?以及我們在該領域能否獲得可持續的競爭優勢?目前,客戶要求我們專注於PCI Express及其向UALink的轉型——這對我們來說是一個巨大的機會,因此我們的重點在此。”CPO不是偽命題,但現在顯然“被講早了”對於行業而言,CPO更像是互聯體系的“最後一公里”技術,而非下一代架構的默認選項。它解決的是現有技術路徑徹底失效之後的問題,而不是當下迫在眉睫的瓶頸。這一判斷,在博通首席執行長陳福陽的表態中得到了高度概括。他直言:“未來某個時刻,矽光子學將會成為實現高速傳輸的唯一途徑,屆時它的重要性便會凸顯,但我們目前還未到那個階段。只有當可插拔光模組技術也無法滿足需求時,矽光子學才會成為最終的解決方案。這一天終將到來,我們也已做好準備,只是不會很快實現。”換言之,CPO是終極解法之一,但不是當前階段的最優解。因此,在相當長的一段時間內,LPO、AEC、ALC 以及ZR光模組仍將承擔資料中心互聯的主力角色。相比之下,CPO的應用場景將更加收斂——主要集中在極高連接埠密度、極端功耗約束、以及現有架構已經“無解”的特定系統中,而非大規模鋪開。多家廠商給出的技術路線與時間表,也印證了這一判斷。Arista的Hardev Singh明確表示,LPO的演進遠未結束:“我們有信心在1.6T速率下實現LPO技術的穩定運行,目前相關研發工作正在推進中。”Credo首席執行長Bill Brennan則從另一條路徑給出了更具“反直覺”的判斷:“我們在ALC中投入的微LED技術將直接應用於近封裝光學,其功耗僅為CPO的三分之一,且無需複雜的交換機設計。因此,我們認為,當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”在時間節點上,行業的判斷也正在逐步收斂:2026年:800G仍佔主導,1.6T開始放量,LPO / AEC持續增長2027年:1.6T成為主流,CPO進入小規模測試與驗證階段2028年及以後:CPO在特定場景(主要是縱向擴展的高密度系統)中開始規模化部署Lumentum的袁武鵬對這一節奏給出了相對激進、但依然謹慎的預測:“到2027–2028年左右,首批採用CPO的客戶中,約有40%–50%的交換機將基於CPO技術。但這一判斷仍存在較大不確定性,客戶也在根據自身業務節奏進行評估。”Astera Labs的Jitendra Mohan則給出了幾乎一致的判斷:“我們預計將在 2028–2029 年實現大規模部署。光學技術的演進不會一蹴而就,2027 年更多是測試性部署,為後續放量做準備。”由此,真正的問題已經不再是“要不要 CPO?”,而是“在什麼條件下,現有方案真的不夠用了?”Marvell光學與互聯業務負責人Chris Koopmans給出了最務實的回答:“歸根結底,客戶在光學技術選擇上存在很大分歧。我們的理念不是強迫客戶接受某一種路徑,而是支援他們的選擇——如果客戶希望將其指定的光子技術與我們的電晶片和封裝方案結合,我們會非常樂意配合。”這或許正是理解當前CPO討論熱度與實際部署節奏錯位的關鍵所在:在PPT裡,CPO非常重要;在機房裡,它並不緊急。行業真正需要的,不是技術可行性證明,而是系統必要性證明。只有當 LPO、AEC、ALC等路徑在功耗、密度、可靠性上同時觸頂,CPO才會從未來選項轉變為當下必需。而從當前幾乎所有行業巨頭的共同表態來看,那個時刻,還沒有到來。 (半導體行業觀察)
甲骨文百億項目融資突然「告吹」,美國AI泡沫恐慌來襲?
美國時間12月中旬,有報導稱,甲骨文在美國資料中心項目的主要支持者Blue Owl Capital將不會資助密歇根州一個價值100億美元的資料中心。這被視為百億項目融資“告吹”,該消息迅速放大並引發市場對AI泡沫的擔憂。實際上,自9月初見頂以來,甲骨文股價已下跌近45%。作為近兩年推動美股牛市的關鍵因素,AI行業對於明年市場的走向依然至關重要。難道,美國此輪 AI 基建周期已經提前來到了拐點?甲骨文的AI故事不香了?7 個月前,甲骨文官方帳號在社交媒體上發佈了一段頗具象徵意味的視訊。畫面中,時任甲骨文雲基礎設施負責人 Clay Magouyrk 正帶領 OpenAI CEO 山姆·奧特曼(Sam Altman)參觀德克薩斯州阿比林(Abilene)首個“星際之門(Stargate)”項目現場。Magouyrk 對奧特曼形容道:“這裡就像是小孩子在玩很大的玩具。”甲骨文官號配文稱:“我們正在建設全球最大的 AI 訓練設施。”當時,多家媒體援引知情人士稱,OpenAI 未來幾年將向甲骨文支付千億美元規模的算力費用。圖:2025年4月,OpenAI CEO奧特曼造訪甲骨文資料中心現場這一敘事迅速傳導至資本市場。甲骨文股價從 4 月 21 日的約 122 美元一路上漲,在 9 月初一度衝至 320 美元以上,也讓 81 歲的聯合創始人埃裡森以約 3832 億美元的身家,短暫超過馬斯克,重回世界首富寶座。幾乎在同一時期,主導雲端運算基建項目的 Clay Magouyrk 被提拔為甲骨文聯席 CEO。但進入年末,隨著投資者逐漸將目光從“故事規模”轉向“兌現這些承諾所需付出的成本”,甲骨文股價開始回吐此前全部漲幅。問題不再是 AI 有沒有前景,而是這條路到底要花多少錢、多久才能回本?信用市場最先“翻臉”曾因做空安然成名的大空頭吉姆·查諾斯(Jim Chanos),在 12 月初毫不避諱地公開炮轟甲骨文資產負債表擴張過快,正逼近財務承壓區間。他在播客採訪中直言,作為五大超大規模雲廠商之一,甲骨文為了追趕同行而採取了激進投資策略,但新增資本投入並未帶來相應的利潤回報。“如果用新增營業利潤除以新增投入資本來計算,甲骨文的回報率只有大約 8.5%,而微軟接近 40%。”查諾斯指出,這意味著甲骨文目前無法收回增量資本成本。在他看來,更大的不確定性來自 AI 變現時間表本身。市場普遍假設 AI 的貨幣化拐點將在 2027到2028 年出現,但如果這一節點被推遲至 2030 年,甚至最終無法兌現,甲骨文將面臨根本性的財務挑戰。這並不是對 AI 技術前景的否定,而是對當下資本配置邏輯的質疑。這一點,在甲骨文 12 月初的財報電話會上被體現得更加直接。多位分析師反覆追問:甲骨文在 AI 上到底要花多少錢?但管理層並未給出清晰的數字答案。私募信貸開始轉向?與此同時,私募信貸市場也在重新定價風險。紐約投資公司 Blue Owl 過去是甲骨文多項大型資料中心項目中的關鍵資本方。其典型做法是通過設立特殊目的公司(SPV),引入銀行融資,並以甲骨文的長期租約作為現金流支撐,從而幫助甲骨文實現“資產負債表外”的擴張。在德州阿比林、新墨西哥等項目中,這一模式運轉順暢。但密歇根項目成為分水嶺。隨著市場對 AI 支出規模、甲骨文自身債務水平以及項目執行風險的態度發生變化,貸款方開始要求更嚴格的租賃和債務條款。在融資成本上升、槓桿空間收緊的情況下,該項目對 Blue Owl 的財務吸引力明顯下降,最終導致其在放款前選擇退出。儘管甲骨文緊急“滅火”稱,項目的股權交易最終談判進展按計畫進行,整體推進符合預期,但市場的擔憂已經被點燃。OpenAI能否付得起錢?另一條逐漸被市場放大的質疑,來自OpenAI算力訂單的可靠性。摩根大通分析師埃麗卡·斯皮爾在 12 月 15 日關於甲骨文的研報標題為“如果你建造它,他們(OpenAI)會付錢嗎?”投行D.A.Davidson 科技研究主管分析師 Gil Luria 在 12 月 12 日的一份報告中直言,“鑑於 OpenAI 不太可能兌現其 3000 億美元的承諾,我們認為甲骨文最好的做法是主動重組該合同,以更負責任地部署資本,而不是假裝擁有 5230 億美元的剩餘履約義務( RPO)。”剩餘履約義務(RPO)指的是企業已簽訂的、但尚未確認為收入的合同銷售。換句話說,OpenAI承諾在未來五年向甲骨文支付3000億美元購買算力,但並非一定發生。截至 11 月 30 日,甲骨文的 RPO 已躍升至 5230 億美元。“OpenAI 誤導了甲骨文,甲骨文又誤導了投資人。” Gil Luria 在接受採訪時表示,儘管甲骨文被頻繁提及為 OpenAI 的重要基礎設施合作方,但在實際算力分配、合同結構以及未來擴展中,其最終能分得多少,仍缺乏透明度。11月初,OpenAI 先後與微軟、亞馬遜簽署新的合作協議,算力來源呈現明顯的多元化趨勢,讓甲骨文在OpenAI生態中的位置變數增加。更重要的是,OpenAI 在AI需求中的位置也處在變動中。一來,隨著Google等資金實力更雄厚的競爭對手加速追趕,新一代 Gemini 模型獲得市場好評,奧特曼本人在12月初已經通過公司內部信發出“紅色警報”,那怕推遲其他產品的開發,也要全力押注GPT在AI競爭中保持身位。也就是說,在技術路線快速演進的背景下,OpenAI 是否能夠持續保持領先,並不確定。二來,OpenAI 與晶片製造商輝達之間的協議仍懸而未決。兩家公司曾於 9 月 22 日宣佈簽署意向書,稱輝達將在多年內向OpenAI投資多達 1000 億美元,OpenAI 則購買數百萬輝達專用晶片用於其 AI 基礎設施。外界曾期待OpenAI會把輝達的投資轉手給甲骨文購買算力。但兩個多月過去了,協議仍未正式簽署。輝達在最新財報中表示,“並不保證任何投資會按預期條件完成,甚至根本不會完成。”AI競爭進入“現金流檢驗期”?甲骨文並非唯一重注 AI 的科技公司,但在這一輪投資周期中,卻處在對資本最為敏感的位置。在 AI 浪潮之前,甲骨文依賴高度可預測的現金流和約 70% 毛利率的傳統軟體業務,能夠支撐穩定回購與分紅。但 AI 投資打破了這一平衡。資料中心和算力基礎設施意味著資本高度前置、回報周期拉長,執行節奏成為關鍵變數。相比之下,微軟和Google擁有更強的現金流緩衝,更容易消化長期資本消耗。當資本已經投入、收入尚未兌現、利率仍處於高位時,市場開始重新評估,那家公司的資本結構,能夠承受更長時間的回報延遲。儘管公司已任命新的聯席 CEO,但是否繼續為 AI 承擔高強度投入,最終仍由創始人拉里·埃裡森拍板。Oracle 的英文原意是“神諭”。當 AI 投資進入結算階段,市場關心的也不再是預言是否宏大,而是誰能撐到預言兌現的那一天。 (新浪科技)
AI暴擊下,科技行業增長最快的新工作居然是這個
過去兩年裡,關於“AI 將導致大規模失業”的討論幾乎變成全民話題。在AI的發源地——科技行業,也普遍瀰漫著一種“被替代”的焦慮。根據美國專門報導失業資料的Layoffs.fyi追蹤顯示,2025年以來,200多家科技公司已經裁掉了12多萬名員工,其中不乏微軟、Google、亞馬遜等大廠的大規模裁員。高盛曾在一份研究報告中指出:全球3億全職崗位面臨AI替代風險,美國三分之二的職業可以實現部分自動化。惠普公司CEO恩裡克·洛雷斯也曾在財報會議上直言不諱地說:"很多人工任務未來會由AI做得更好、更快。"如果根據這種趨勢線性外推,必然會進入一個絕望的死胡同:當AI 掌握了邏輯與算力,人類還能剩下什麼?當所有目光都盯著“演算法工程師”和“算力架構師”時,大洋彼岸的矽谷和華爾街,卻悄然開啟了一場反直覺的招聘狂潮。根據《華爾街日報》的最新報告,科技巨頭們正在以高達 27.4 萬美元(約合人民幣 200 萬)的年薪,瘋搶一種古老而感性的角色。這個職位不是“提示詞工程師”,也不是“資料標註員”。它是“故事講述者”(Storyteller)。一、公司正“瘋狂招募故事講述者”華爾街日報剛剛發表了一篇文章《Companies Are Desperately Seeking ‘Storytellers’公司正“瘋狂招募故事講述者”》,在外網引起了熱烈的討論。從中我們可以看到一種早期趨勢的痕跡,和經叔之前探討的、為什麼科技公司和風投都開始搞自媒體,其實是一個邏輯。根據報導,美國 LinkedIn(領英)職位發佈裡包含“storyteller”的比例,在截至 11 月 26 日的一年裡翻倍。更具體的數字是:在“行銷”類別下,提到該詞的崗位約5 萬條;在“媒體與傳播”類別下,超過2 萬條。不僅招聘在漲,連高管嘴裡這個詞也越來越多。FactSet 統計顯示:企業高管在財報電話會和投資者日裡提到“storyteller / storytelling”的次數,今年截至 12 月 11 日為469 次,而 2024 年全年359 次,2015 年僅147 次。更直觀的是案例,而且它們都帶著一種“急迫感”:•Google招“客戶故事講述經理”,說“講故事在推動客戶獲取與長期增長上不可或缺”•Microsoft的安全組織招“敘事與講故事”方向的高級總監,要求既懂技術又能溝通、又能行銷。•合規技術公司Vanta招“講故事負責人”,最高薪資可達27.4 萬美元。•Notion乾脆把傳播、社交媒體、網紅合作合併成一個 10 人的“講故事團隊”。•金融科技品牌Chime開出了首個“企業編輯與講故事總監”崗位。•USAA一年內從 0 招到第 4 位 storyteller,用來寫部落格、報告、指令碼、演講稿,把真實場景“帶入生活”。更重要的是,這不是“文案崗換了個潮一點的名字”這麼簡單。報導裡有一句話很關鍵:它不完全是編輯、也不完全是活動、公關或行銷,而是這些模組如何協同,最終匯入同一個更大的東西——你的故事。換句話說:企業在招的,不是“寫得多的人”,而是能把公司講成一個世界觀的人。二、為什麼會這樣?為什麼是故事講述者?某種層面,答案隱藏在經濟學的供需曲線裡:當某種資源無限過剩時,與之相對的另一種資源就會變得極度稀缺。AI 帶來了什麼?它帶來了人類歷史上最恐怖的“內容通膨”。資訊不再稀缺,邏輯不再稀缺,甚至平庸的創意也不再稀缺。但“意義”稀缺。“信任”稀缺。“把冷冰冰的技術轉化為人類願景的能力”,極度稀缺。我們可以從三個底層變化理解這件事。1)“贏得媒體”在縮小,品牌被迫“直接面向受眾”過去公司很依賴媒體報導(earned media)。但現實是,媒體行業在收縮:報導引用了美國勞工統計局資料——“新聞分析師、記者與新聞工作者”人數約4.9 萬,而 2000 年是65,930。地方新聞同樣萎縮:西北大學梅迪爾學院的《地方新聞現狀》報告指出,美國紙媒發行量較 2005 年下降70%,一些大報網站瀏覽量近年也顯著下滑。媒體變少、注意力變貴,於是品牌越來越像“媒體公司”:自己做帳號、做播客、做視訊、做 newsletter(比如 Substack)。這叫going direct——不再等別人替你講,而是自己講。但問題來了:你管道越多、觸點越碎,就越需要有人把它們統成一個敘事宇宙。否則你今天發一條“我們很溫暖”,明天做一個“我們很狠的增長”,後天講“我們有信仰”,觀眾只會覺得:你到底是誰?2)“AI 內容氾濫”製造了信任危機,真實敘事反而變貴報導裡有位傳播公司 CEO 講得很直白:“AI slop(AI 垃圾內容)製造了巨大不信任。”當每個人都能一鍵生成“像樣的文字”,文字本身就不再是價值。價值轉移到了更稀缺的東西:•立場是否清晰•語氣是否一致•敘事是否可信•細節是否來自真實世界•你是否能讓人感覺“這裡有個人”這也是為什麼很多公司更愛招前記者:記者訓練的核心不是“寫”,而是不斷追問:So what那又怎麼樣呢?讀者為什麼要在乎?這對他意味著什麼?這不是關於文采,而是“意義生產”。3)在過剩裡,人需要意義;在噪音裡,組織需要一致性講故事,就是在豐剩和過剩中強加意義、在噪音中建立連貫、在權力面前賦予正當性的唯一方式。沒有敘事控制權,戰略、營運、資本都不會長期立足。因為,資訊越多、選擇越多、管道越多,系統越容易走向混亂。混亂的代價是什麼?不是“看不懂”,而是不相信、不記得、不願意跟隨。所以 storytelling 的本質,不是“講得更動聽”,而是讓一個組織在外界的噪音裡依然能做到:•我們相信什麼•我們反對什麼•我們為誰服務•我們如何證明•我們要把人帶到那裡你會發現,這些問題回答不清楚,再多內容也只是“產出”;回答清楚,內容才會變成“敘事資產”。當AI生成一切,聰明人開始搶佔敘事資本和認知程式設計權為什麼AI 時代需要故事講述者?因為技術本身是冰冷的、理性的、複雜的。而人類的選擇是感性的、情感的、簡單的。當AI可以寫出完美的程式碼、生成精美的設計、做出精準的預測時,企業發現:技術不再是護城河。任何技術,都會被快速複製、快速迭代、快速商品化。但故事不一樣。一個好故事,可以建立情感連接,可以塑造品牌信仰,可以創造文化認同。它讓技術不再是功能,而是意義;不再是工具,而是身份。這不僅是行銷,更是生命的哲學。當我們說"講故事"時,我們說的不是"編個好聽的故事"。我們說的是:1. 賦義(Meaning-making):把複雜的技術和價值,轉化成普通人能理解和感受的意義。2. 降維壓縮(Dimension Reduction):把龐雜的資訊壓成一句可記、可講、可轉述的語言。3. 控制敘事主權(Narrative Control):在資訊噪音中,主動定義自己是誰、為什麼重要、要去那裡。在AI時代,這三件事變得前所未有的重要。因為當AI可以生成無數內容時,品牌需要的是一個穩定的"敘事引力場"——讓別人遇到某類問題,就會想到你。當AI可以模仿任何風格時,品牌需要的是獨特的"聲音指紋",讓讀者一眼知道"這就是你"。正如一位傳播專家所說:"在一個產出無限的世界裡,'故事'才是稀缺的底層要素。誰能把混沌壓縮成一種人們能夠感受、記住、原諒並願意圍攏的東西,誰就真正運行著這個系統。"三、最高級的權力:重新審視賈伯斯的“現實扭曲力場”提到科技與故事,我們無法繞開史蒂夫·賈伯斯。很多人誤以為賈伯斯的成功在於“極致的產品”,或者“飢餓行銷”。但如果拔高一個維度,你會發現,賈伯斯一生都在踐行那個終極真理:“世界上最有力量的人是講故事的人。講故事的人決定了一個即將到來的世代的願景、價值觀和議程。”賈伯斯不僅僅是在賣手機或電腦,他是在建構一種“世俗宗教”。當 2001 年所有廠商都在比拚 MP3 播放器的儲存空間(是 64MB 還是 128MB)時,賈伯斯從口袋裡掏出 iPod,說了一句至今仍是經典的文案:“1000 首歌,裝進口袋。”請注意這其中的差別:• 平庸的敘事:參數(Storage)、功能(Play)、價格。• 賈伯斯的敘事:場景(Pocket)、體驗(Music)、自由(1000 Songs)。他沒有販賣硬體,他販賣的是“未來的生活方式”。賈伯斯最高超的地方,在於他把自己和蘋果塑造成了“反抗平庸的英雄”。從 1984 年那個對抗老大哥的廣告,到“Think Different”裡致敬愛因斯坦和畢加索,他建構了一個巨大的敘事引力場:購買蘋果產品,不是消費行為,而是一種身份投票——你投票支援創新,反對墨守成規。這就是為什麼今天科技公司瘋搶Storyteller 的根本原因:在技術同質化的時代,唯有敘事能建立“護城河”。四、普通人的“道”:AI 時代,成為自己敘事的主人當AI開始"最佳化"人類,當演算法開始替代工作,當效率成為唯一的衡量標準時,我們面臨一個選擇:是被動地接受被最佳化的命運,還是主動地建構自己的敘事?科技公司"瘋狂招募"故事講述者,不是因為他們突然變得文藝了,而是因為他們終於意識到:在AI時代,技術不再是護城河,敘事才是。在AI時代,普通人最需要學的不是提示詞,不是如何程式設計,也不是"如何講故事"的技巧,而是"如何建構意義"的底層邏輯。1)別把自己活成“功能集合”,要活成“意義坐標”AI 最擅長替代的,是可拆解、可複製、可規模化的輸出。人最難被替代的,是他所代表的意義:你站在那一邊,你相信什麼,你願意為什麼付出代價。當你能成為一種“坐標”,你就不再只是一個帳號、一份簡歷、一項技能,而是別人用來理解世界的一塊拼圖。2)在無限內容裡,稀缺的是“可被記住的解釋”今天內容最大的問題不是少,而是“太多且互相打架”。所以真正有價值的人,不是製造更多資訊,而是提供更少、但更穩定的解釋框架。能讓人記住、願意複述、可以傳遞的那種解釋,就是你的敘事力量。3)敘事主權決定你能走多遠賈伯斯極度在意發佈節奏、表達結構、本質上都是在守護一件事:解釋權。同樣,個人在 AI 時代最重要的能力之一,是不被平台、不被熱搜、不被他人的評價體系定義——你要能先定義自己。當你失去敘事主權,你就會被迫在別人的話語裡求生;當你擁有敘事主權,你才可能在變化裡持續生長。4)越是技術狂飆,越需要人文錨點AI 讓效率暴漲,也讓人更容易迷失。越是這種時候,人越需要一些“錨”——價值觀、願景、歸屬感、被理解的感覺。這就是為什麼科技公司會在最技術的地方,反而開始瘋狂招“講故事的人”。AI 會繼續加速,崗位會繼續重組。但《華爾街日報》這條趨勢至少告訴我們:當世界變得更像機器,人們反而更渴望“人”的東西——意義、信任、立場、連貫、被理解。所以,科技行業增長最快的新工作叫 storyteller,一點也不矛盾。它只是提醒我們:在過剩時代,能把混沌講清楚的人,才是真正稀缺的人。 (不懂經)
高盛:中國網際網路行業策略大轉向,雲和資料中心成top pick,超越遊戲
高盛在3季度業績發佈及調研後,對中國網際網路行業策略大轉向:把“雲與資料中心”提到了首選類股,排到了遊戲和出行之前。AI帶來的算力需求和資本開支(Capex)擴張,已經是最確定的增長邏輯了。1、最大預期差:雲與資料中心成為“新王” ☁️高盛這次非常堅決,把雲和資料中心類股從原來的第三提升到第一。邏輯很硬:AI訓練和推理的需求持續爆發,加上巨頭們都在搞“多晶片策略”,資料中心的訂單量非常飽滿。核心邏輯:不僅是輝達,國產晶片的供應上來後,算力基建的利用率和回報率都在提升。2、AI助手的“入口之戰”是個大隱憂 🤖報告專門討論了一個長線風險:字節跳動的“豆包手機助手”。這東西能直接在作業系統層面(OS-level)幫使用者跨APP操作,比如比價、點外賣。這對現有的APP生態是個降維打擊。雖然目前微信等巨頭因為安全隱私原因封鎖了它的介面,但這種“超級AI代理”對使用者流量入口的爭奪,是未來幾年最大的變數。字節系App現在霸榜iOS免費榜前五中的四席,攻勢很猛。3、本地生活:燒錢該結束了,關注利潤修復 🛵外賣和即時零售打得太凶,三季度行業大概虧了700億人民幣,太誇張了。高盛判斷,這種非理性的補貼戰不可持續。格局推演:美團、阿里、京東的市場份額最終可能會穩定在 5:4:1。美團:雖然長期單均利潤預期被微調(從0.8元降到0.7元),但在這個價位,壞消息已經Price-in了,隨著補貼退坡,利潤修復是大機率事件。4、最新的“核心股票池”名單 📝根據最新的類股偏好,高盛更新了首選名單:雲/資料中心:阿里巴巴、萬國資料、世紀互聯。遊戲(防守反擊):騰訊、網易。出行(格局穩固):滴滴、滿幫。電商(新面孔):快手(新增為關鍵推薦,看好其AI模型Kling的突破和電商變現)。5、估值怎麼看? 📊現在中概網際網路類股的2026年預期市盈率(P/E)中位數大概是18倍。之前的上漲主要靠殺估值修復(Multiple Expansion),接下來的漲幅,必須得靠實打實的每股收益(EPS)增長來驅動了。所以,選利潤兌現能力強的公司,比單純博反彈要穩妥得多。總的來說,風向變了,硬科技基礎設施(資料中心)的優先順序在上升,而純流量變現的生意面臨AI新玩法的挑戰。 (硬AI)
外賣大戰三敗俱傷;GoogleTPU威脅輝達GPU;AI初創公司成虧損“無底洞”
11月份,AI熱潮的最大收益者輝達終於迎來了真正的對手Google,而Google最新發佈的Gemini 3也對OpenAI造成了巨大威脅。與此同時,針對AI投資泡沫的擔心,讓軟銀和甲骨文的股價經歷了過山車般的暴漲暴跌。京東、阿里巴巴、美團公佈的第三季度財報顯示,外賣大戰開支大增導致利潤大幅下降甚至虧損。下面,讓我們看看過去一個月都發生了什麼。GoogleTPU威脅輝達GPU霸主地位投資者正推動AI交易的兩大領頭羊走向相反的方向。Alphabet向4兆美元市值又邁進了一步,延續了數月來由投資者對這家Google母公司的AI工具、雲端運算和晶片業務的熱情所推動的漲勢。輝達這家全球市值最高的公司則進一步遠離數周前才達到的5兆美元估值。隨著來自ChatGPT的威脅減退,使用者更多地回到Google進行搜尋,其變現能力似乎保持完好。隨著第三代Gemini大語言模型的發佈,Google(Google)的這款模型在業界公認的基準測試中超越了ChatGPT和其他競爭者,被評為當前能力最強的AI聊天機器人。Google最新推出的Gemini 3再次攪動了矽谷的AI格局。在OpenAI與Anthropic激戰正酣之時,Google憑藉其深厚的基建底蘊與全模態(Native Multimodal)路線,如今已從“追趕者”變成了“領跑者”。Google股票市值已經達到3.86兆美元,有望成為第四家躋身“4兆美元市值俱樂部”的企業。輝達(Nvidia)在11月份累計下跌12.59%,市值蒸發7000億美元,因投資者越來越擔心AI支出出現泡沫,以及輝達對OpenAI等初創企業的循環投資——這些企業同時也是輝達的客戶。此前一份報告稱Google母公司Alphabet的AI處理器正取得進展。輝達的估值實際上是基於它能夠保持市場份額的預期。如果它開始失去部分市場份額,投資者就會重新評估增長前景以及公司應有的估值。不到一個月前,輝達市值剛剛突破5兆美元,輝達市值目前已經回落到4.3兆美元。針對華爾街擔憂其在AI基礎設施領域的主導地位可能受到GoogleAI晶片威脅的問題,輝達表示,其技術仍領先行業一代。此前有報導稱,輝達重要客戶之一的Meta可能與Google達成協議,在資料中心使用Google的張量處理單元(TPU)。與輝達不同,Google並不向其他公司出售其TPU晶片,而是將其用於內部任務,並允許其他企業通過Google雲平台租用該晶片。Google新一代人工智慧模型Gemini 3其訓練過程使用的是Google自研的TPU,而非輝達的GPU。輝達CEO黃仁勳反駁了人們對世界正走向人工智慧泡沫的擔憂,他認為,今天的大規模投資植根於計算本身工作方式的歷史性轉變。他指出了一個驚人的資料點:就在六年前,全球500強超級電腦中有90%是由CPU驅動的。如今,這一比例已降至不足15%,其餘的都在GPU上運行。只有在這種根本性的轉變之後,才會出現人工智慧的爆炸式增長,包括OpenAI、xAI、Anthropic和Alphabet旗下Google的模型。自ChatGPT推出以來,OpenAI在主導人工智慧競賽中的巨大先發優勢正面臨有史以來最大的壓力,因競爭對手Google和Anthropic在這項前沿技術上迅速追趕。在其熱門聊天機器人推出三年後,這家估值達5000億美元的初創公司正面臨資料中心成本飆升的現實、保持AI前沿所帶來的技術挑戰,以及為留住關鍵人才而進行的持久戰。它還面臨著捲土重來的Google。Google發佈最新的大型語言模型Gemini 3,被認為已經超越OpenAI的GPT-5,並在模型訓練過程中取得了OpenAI近幾個月未能實現的進展。波克夏公司(Berkshire Hathaway)在今年第三季度購入1785萬股Google母公司Alphabet股票,市值約49.3億美元。此舉也標誌著波克夏罕見地押注科技股。已故副董事長芒格(Charlie Munger)在2019年波克夏股東大會上談及未早期投資Google時曾表示:“我們搞砸了。”AI初創公司成虧損“無底洞”在外界日益擔憂人工智慧(AI)相關估值過高之際,投資者從大型科技公司穩健的業績中獲得了很大慰藉。但這些業績背後也有隱憂:儘管生成式AI初創公司在這些盈利上市公司提供的晶片和資料中心服務方面大舉投入,但OpenAI這些初創公司正面臨虧損越來越大的處境。隨著科技股飆升以及私人AI企業估值不斷攀高,投資者的擔憂情緒加劇,引發了對AI泡沫的恐懼。OpenAI是一個上面蓋著網站的“燒錢黑洞”,但由於OpenAI是一家私營公司,想要估算這個黑洞有多深,仍需要大量的猜測。匯豐(HSBC)在美國的軟體與服務團隊更新了其OpenAI預測模型,按累計交易總額最高可達1.8兆美元計算,OpenAI每年的資料中心租賃費用約為6200億美元——儘管預計到本十年末,所簽約電力中只有三分之一能投入運行。預測模型顯示,OpenAI到2030年將面臨2070億美元資金缺口。軟銀集團(SoftBank Group)正在加大對OpenAI的投資。12月將追加出資225億美元。還將針對該公司在美國各地建設大型資料中心的“星際之門”(Stargate)計畫展開合作。軟銀集團力爭成為通過人工智慧基礎設施賺取收益的“平台提供商”,不斷加大投資力度。軟銀集團在2024年9月以後對OpenAI進行了多次投資,並在2025年4月實施了追加投資。12月的出資完成後,軟銀集團將累計投資347億美元,成為出資比例約為11%的大股東。在投資額方面,將超過美國微軟成為最大。人工智慧(AI)股票的熱潮正在降溫,軟銀集團正遭受重創。這家總部位於東京的全球科技投資者的股價自10月底觸頂以來已下跌40%,其市值總計已蒸發超過1000億美元。這種過山車般的走勢可能反映了投資者對AI看法的轉變。交易員越來越多地將軟銀視為OpenAI的代表,人們擔心在Google推出Gemini 3.0後,OpenAI將面臨新的壓力。分析師表示,軟銀股價的大幅下跌突顯出它對OpenAI的敏感性,而不是對人工智慧市場整體疲軟的敏感性。甲骨文股價在9月大漲逾30%後罕見地回吐全部漲幅。該公司債務負擔如此之重,以至於穆迪和標普現在越來越傾向於把其債券歸為垃圾債。投資者對科技公司投資AI基礎設施的資本規模感到不安,位於德克薩斯州阿比林市的"星際之門"AI資料中心,由甲骨文、OpenAI和軟銀合作建設。矽谷兩大人工智慧初創公司的財務狀況揭示出它們在AI熱潮中採取了截然不同的發展策略,而Anthropic有望比競爭對手OpenAI更快實現盈利。Anthropic預計將在2028年首次實現盈虧平衡。該公司憑藉其Claude聊天機器人在編碼和其他領域的能力,吸引了越來越多的企業使用者。如今的AI領域參與者也面臨與英特爾類似的困境:他們認為不能等到AI的商業潛力得到證實後再進行投資。科技行業現在有一種共識:在為人工智慧(AI)配置晶片和其他計算基礎設施方面,投入太少比投入太多風險更大。正如OpenAI首席執行官阿爾特曼(Sam Altman)最近所說,人們要麼過度投資而虧錢,要麼投資不足而少賺收入。又如Meta Platforms首席執行官祖克柏(Mark Zuckerberg)所說,AI作為收入驅動因素的前景意味著“我們要確保我們沒有投資不足。”外賣大戰三敗俱傷京東、阿里巴巴、美團先後公佈2025年第三季度財報。從資料來看,三巨頭的財報大傷元氣,外界普遍認為是由於補貼大戰的高額投入。資料顯示,三季度三家巨頭在外賣大戰上的開支應該達到444億元,新增開支48%。京東發佈2025年第三季度財報。季度淨營收為2991億元,同比增長14.9%。歸屬於普通股股東的淨利潤為53億元,同比下降55%;調整後歸屬於普通股股東的淨利潤為58億元,同比下降56%。三季度京東行銷開支由去年第三季度的100億元增加110.5%至今年三季度的211億元。京東集團CEO許冉談及外賣業務時表示,無論是外賣還是即時零售,對於我們來說同樣是一個長期戰略。我們的目標還是推動業務的健康發展,保持可持續的增長。許冉透露,三季度,京東外賣保持了健康的增長態勢。許冉還表示,最終外賣業務是一個可以自己獨立生存的業務。京東集團創始人、董事局主席劉強東宣佈京東外賣獨立App正式上線,“初期很多人搜京東外賣發現沒有App,也不知道我們主App裡面它是秒送,所以導致了很多使用者甚至一批老使用者在京東主App裡面,找不到我們外賣入口。”阿里巴巴發佈截至2025年9月30日第二財季(自然年第三季度)業績。季度營收為2477.95億元,同比增長5%。歸屬於普通股股東的淨利潤為209.90億元,同比下降52%,主要由於營運利潤出現下滑。不按美國通用會計準則,淨利潤為103.52億元,同比下滑72%。季度即時零售收入為229億元,較上年同期的143.21億元暴漲60%。不過,收入暴漲伴隨著高投入,阿里巴巴本季度銷售和市場費用665億元,較上年同期增長104.8%。阿里今年第三季度雖然表面上看公司營收同比增長5%,數字上依然維持著擴張的態勢。然而與此同時,其營運利潤同比暴跌85%,幾乎降至僅53.65億元。更令市場不安的是,經營活動產生的淨現金流也隨之急劇收縮,降幅高達68%。阿里CEO吳泳銘直言,淘寶閃購的投入在三季度可能是高點,預計投入在下個季度將會顯著收縮,也會根據整個市場的競爭狀態動態調整投資。美團發佈2025年第三季度業績報告。季度實現營收955億元人民幣,同比增長2%。淨虧損186億元,上年同期淨利潤129億元;調整後的淨虧損為160億元,上年同期淨利潤為128億元。本季度美團核心本地商業類股實現營收674億元。由於行業競爭加劇,核心本地商業經營利潤轉負,虧損141億元。美團新業務類股實現營收280億元,同比增長15.9%,虧損環比縮小至13億元。美團財報顯示,三季度銷售及行銷開支由此前的180億元增加90.9%至343億元,美團董事長兼CEO王興在第三季度財報分析師電話會議表示,“外賣價格戰”是一個典型的內卷案例。產品價格低廉、質量低劣,本質上其實是一種惡性競爭,而美團是堅決反對這種內卷的。過去六個月的實踐也證明了一點。這種“內卷”是無法為行業創造任何真正價值的,也無法助力行業持續發展。我們完全有信心捍衛美團在即時配送領域的行業領先地位,並為行業創造真正的長期價值。投資中國佳能(Canon)已停止在中國廣東省中山市生產雷射印表機等,生產功能將轉移至其他工廠,部分產品停產。佳能(中山)辦公裝置有限公司於11月21日停止運轉。該工廠成立於2001年。2012年轉移至擴大產能的新工廠,生產雷射印表機和雷射複合機。截至2025年9月底,該公司的員工約為1400人,佳能將進行再就業支援等。大眾汽車(Volkswagen)正在中國開發用於先進駕駛功能的自研人工智慧晶片。這家德國集團正竭力在中國這個全球最大汽車市場中求得生存。這家歐洲最大的汽車製造商表示,其首款自研晶片正通過其軟體部門Cariad與其中國智能駕駛軟體合作夥伴地平線機器人(Horizon Robotics)的合資企業在中國開發,預計將在三至五年內開始交付。大眾汽車董事長奧博穆(Oliver Blume)說:“通過在中國設計和開發系統級晶片(SoC),我們將掌握決定智能駕駛未來的關鍵技術。”本田(HondaMotor)將在中國對新車開發進行調整。計畫將原定2025年12月之前銷售的純電動汽車(EV)旗艦車型的推出時間推遲到2026年以後。本田與比亞迪等當地企業的價格競爭非常激烈。與豐田和日產汽車等日系車企相比,本田也處於一家獨輸的局面。為了提高成本競爭力,本田將重新制定純電動汽車的銷售戰略。此前計畫由與東風汽車集團的合資公司“東風本田”、與廣州汽車集團合資的“廣汽本田”各推出一款車型。推遲的背景是在中國銷售低迷。瑞士化學物質生產商科萊恩(Clariant)的負責人表示,公司將擴大在中國的產能,並警告稱,由於歐洲更高的能源和勞動力成本,“將有更多生產從歐洲轉移出去”。科萊恩(Clariant)的目標是到2027年其來自中國的銷售佔比提高到14%,高於目前的10%。該公司已擴建了在中國的兩家工廠,這將使科萊恩在中國銷售的化學物質有70%實現本地化生產,高於此前的大約一半。武田(Takeda)中國宣佈其設立於四川成都的武田中國創新中心(TCIC) 正式投入營運。TCIC是武田數位化創新網路的重要組成部分,也是武田首個將同步推進數字醫療解決方案開發與落地應用的創新中心。自1994年進入中國以來,武田已經完成從新藥開發、生產、藥品保障供應及商業化營運的完整藥品價值鏈佈局。TCIC的成立進一步拓展和加強了武田在華價值鏈佈局。雅詩蘭黛(Estee Lauder)的新任首席執行官表示,作為在華開展業務新策略的一部分,他將“加倍押注”中國;而中國正是這家美妝集團在後疫情時期業績疲弱的主要原因。法弗裡(Stephane de La Faverie)計畫從近年來表現尤為疲弱的中國旅遊零售樞紐轉型,但中國對雅詩蘭黛而言“仍具戰略意義”。咖啡巨頭星巴克(Starbucks)宣佈,將以40億美元的價格向私募股權公司博裕資本(Boyu Capital)出售其中國業務的控股權,以推動在中國的門店數量擴大一倍以上。總部位於香港的博裕資本將持有星巴克在中國8000家門店中最多達60%的股份,星巴克將保留40%的股權,並繼續擁有“星巴克”品牌。合資公司將通過獲得星巴克總部的品牌使用授權來開展業務。意在利用博裕的經驗,更新品牌形象,在地方的小規模城市等未開拓地區加快開店步伐,以對抗本土品牌。吉野家控股(YOSHINOYA HOLDINGS)在中國上海開設的拉麵店“煌面屋”開始營業。吉野家控股目前已在中國大陸開設約590家牛肉飯店,但2024年一度退出了中國市場的拉麵店業務。吉野家控股將拉麵定位於繼牛肉飯、烏冬面之後的第三大支柱業務,計畫通過重新進駐中國來擴大海外業務。未來還將通過特許經營(FC)等模式擴大門店網路。吉野家控股通過拉麵子公司“Kiramekino Mirai”,在上海市中心的購物中心內以直營形式開設了雞白湯拉麵店“煌面屋”。日本食醋製造商玉之井醋(Tamanoi Vinegar)宣佈,將在中國擴大醋相關調味品的銷售。最近與當地的代工方成立了合資銷售公司。玉之井醋與生產芥末和醬油等產品的大連天鵬食品共同出資,成立了“玉之井(北京)商貿”。玉之井醋在中國委託大連天鵬生產食醋,供應給日系連鎖餐飲店。但是,在中國沒有自己的銷售網點,玉之井醋幾乎無法開拓普通消費者和當地的餐飲店。通過此次合資,將能夠充分利用大連天鵬遍佈中國各地的批發和超市網點。日本零售巨頭永旺(AEON)在湖南省長沙市開設的新購物中心“永旺夢樂城長沙湘江新區”於11月27日開業,是該公司在湖南開設的第二家店。新店的總建築面積為23.6萬平方米。除永旺自營超市外,還入駐了260家專賣店等。作為吸引客流的亮點,打造了配置大型遊樂設施的屋頂廣場。隨著新店開業,永旺在中國營運的購物中心已達到23家。日本伊藤洋華堂(Ito Yokado)將於11月10日關閉位於四川成都的“食品生活館 華府大道店”。伊藤洋華堂正在調整中國業務,至此2025年已關閉3家店。將通過縮減虧損門店,加緊改善中國業務的收益。華府大道店於2018年11月開業,是食品、日用品、服裝等商品一應俱全的綜合超市。在消費趨勢變化以及競爭環境加劇的背景下,該門店在開業約7年後閉店。華府大道店11月10日關店後,伊藤洋華堂的在華門店將調整為成都(6家)和北京(1家)共計7家店的佈局。行業趨勢和動態資料顯示,剔除11月上市的新股,全部A股上市公司共5443家(其中包括北交所280家)。11月市值榜上,工商銀行再度登頂全市場,市值約28905億元。農業銀行市值28139億元,位居第二。進入市值十強的還包括:建設銀行25271億元、中國移動23298億元、中國銀行19558億元、貴州茅台18164億元、中國石油17845億元、寧德時代17031億元、中國海油13209億元和中國人壽12301億元。韓國經濟人協會發佈的一份報告顯示,韓國十大出口產業中有一半已在企業競爭力方面被中國趕超,預計五年後十大產業競爭力或將全線失守。分行業看,中國企業在鋼鐵、通用機械、二次電池、顯示器、汽車和零部件五個領域領先於韓企,而在半導體、電子和電機、船舶、石油化學和石油產品、生物健康領域仍落後於韓企。但據業界預測,韓國十大出口產業競爭力將在未來五年內全部被趕超。美國的就業狀況正在發生變化。收集全美學生資訊的美國教育部學生資訊中心的資料顯示,2025年春季,教授配管工、木匠等技術的職業培訓學校的入學人數同比增長12%。遠高於大學入學人數的增幅(4%)。這一趨勢從數年前開始增強,背景是人們對於因AI而改變的未來存在擔憂。調查公司Conjointly今年以10~20多歲的Z世代的父母為對象進行的調查顯示,只有16%的人認為“擁有大學學位就能保證長期穩定的就業”,77%的人指出選擇“難以自動化的工作”非常重要。日本郵船、商船三井和川崎汽船等日本三大海運公司將在新一代船舶開發方面與造船公司展開合作。3家海運公司將參股今治造船和三菱重工業共同出資的船舶設計公司。還考慮優先向日本企業訂購船舶。日本的海運和造船公司將一體化,完善新一代船舶的供應鏈。因中國和韓國的造船業崛起,日本造船產業處於劣勢。此次合作將成為日本造船業重振的立足點。貝恩諮詢公司(Bain)發佈的一項新研究顯示,由於富裕消費者對“平淡無奇產品”的過高定價表示抵制,且全球動盪削弱了消費信心,全球個人奢侈品銷售額預計將連續第二年下滑。貝恩在為義大利奢侈品生產商協會Altagamma撰寫的半年度市場報告中指出,今年高端服裝、鞋履和手袋的銷售額預計將從2024年的3640億歐元降至3580億歐元,降幅為2%。這一下滑將標誌著自2008-2009年全球金融危機以來,奢侈品市場首次出現連續兩年增長放緩的情況。巴菲特(Warren Buffett)在發佈的一封信中告訴波克夏(Berkshire Hathaway)的股東,他將“安靜退場”,這位全球最著名的投資人正在為其過去六十年塑造了美國企業界和華爾街的職業生涯畫上句號。這位95歲的老人將於今年底停止承擔波克夏的日常職責,屆時他將卸任首席執行官之職。巴菲特表示,公司下一封年度致股東信——廣受眾多散戶與機構投資者關注——將由其他人撰寫。馬斯克(Elon Musk)的1兆美元薪酬方案獲得特斯拉(Tesla)股東的壓倒性支援,股東們希望,獲得企業史上最高薪酬的前景將促使馬斯克把他的注意力專注於這家電動汽車製造商。這項新方案包括12筆股票,如果馬斯克在未來10年內達成一系列里程碑並將公司市值擴大到8.5兆美元,他可能會獲得特斯拉高達25%的控制權,該方案獲得了超過75%的投票支援。馬斯克此前警告稱,如果該方案未獲通過,他將辭去特斯拉首席執行官職務。 (全球企業動態)
行業深度:從風冷到液冷 資料中心散熱的破局與未來
數字經濟爆發下,全球資料中心耗電量佔比逐年攀升。據統計,2024年中國資料中心能耗總量1660億千瓦時,約佔全社會用電量的1.68%,同比增長10.7%。2024年全社會用電增速為6.8%,資料中心用電量增速遠高於全社會用電量平均增速【1】。資料中心能耗已成為不可忽視的能源消耗領域。隨著人工智慧技術的迅猛發展,AI相關行業正經歷著前所未有的快速增長和技術迭代。這一變革不僅推動了社會的進步,也帶來了對計算能力的巨大需求。智能計算中心,作為AI技術發展的核心基礎設施,正面臨著前所未有的挑戰。01AI行業的快速發展AI技術的進步和應用場景的拓展,使得智能計算中心的建設成為推動行業發展的關鍵。技術的快速迭代要求資料中心能夠迅速適應新的計算需求,保持技術的領先地位。02高密散熱的需求關注隨著AI計算密度的增加,散熱問題成為智能計算中心必須面對的挑戰。高密度計算裝置產生的熱量如果不能有效管理,將直接影響資料中心的穩定性和效率,甚至可能導致裝置損壞和性能下降。03液冷技術的應用為瞭解決高密度散熱問題,液冷技術作為一種高效、環保的冷卻解決方案,已經成為智能計算中心散熱管理的重要趨勢。液冷技術能夠有效降低資料中心的能耗,提高裝置的散熱效率,是應對高密度散熱挑戰的有效手段。隨著晶片功耗增長加速,在面對不同業務需求時,製冷解決方案變得更多多樣。隨著機架功率密度的不斷攀升,行業內普遍認同,40~60kW/Rack已經達到了風冷極限,超過這個能力邊界,無論是考慮到散熱能力還是散熱成本,必須開始部署液冷。資料中心製冷從完全風冷邁向風液混合製冷,不同機架功率密度的製冷解決方案推薦如圖1所示。▲ 圖1 不同功率密度機櫃製冷解決方案機櫃功率密度在20~25kW以內時,常規遠端風冷方案即可解決伺服器散熱需求。當機櫃功率密度進一步提升,單機櫃功率密度在25~45kW時,就應該開始考慮近端風冷的解決方案。風冷方案再疊加背板熱交換器(Rear Door Heat Exchanger,RDHx),可以進一步解決單機櫃60kW以內的散熱需求。單機櫃功率密度在40~60kW時,就可以開始考慮採用液冷,但根據伺服器或晶片不同,也可以更早開始採用液冷。即使採用液冷,根據風液比不同,伺服器仍然有5%~50%的熱量需要通過風冷散熱來解決,風液混合將成為大多數高熱密度機櫃散熱方案。根據伺服器供液溫度要求,室外一次側需選擇不同的散熱方案。伺服器供液溫度要求大於40℃時,室外一次側散熱可以採用完全自然冷的解決方案,當伺服器供液溫度要求較低時,室外一次側需要採用機械冷卻。在單機櫃功率密度小於40kW時,考慮伺服器類型,往往更多選用風冷技術。為實現PUE要求,各類自然冷技術在機房空調裝置中已經大量應用。從節能技術維度,可以分為三類:01風側自然冷方案通過利用室外低溫空氣直接為資料中心供冷。在實際應用中有兩種方案:直接空氣自然冷,直接引入自然界新風對資料中心進行冷卻,但該方案受空氣質量、濕度等因素限制,適用場景較為有限。間接空氣自然冷,借助換熱器實現自然界低溫空氣與資料中心高溫空氣的熱交換,以降低機房溫度。此類方案可有效解決空氣質量及濕度問題,但在夏季室外溫度較高時,其應用仍會受到限制。02水側自然冷方案通過利用低溫水源或者水蒸發潛熱來為資料中心供冷。在過往的水側自然冷應用案例中,有直接引入湖水為資料中心供冷的方式,但此方案受水質條件,以及可能對當地生態環境影響的限制,應用範圍較窄。另一種通過水蒸發利用自然冷的方式應用則更為普遍,常見的冷卻塔及間接蒸發冷裝置等,在開啟水噴淋的情況下,均屬於水側自然冷,通過水的蒸發潛熱利用自然冷源。03氟泵自然冷方案通過氟泵來驅動冷媒循環,付出少量機械能,在室外低溫時將室外自然冷源的冷量通過冷媒相變傳遞至機房,從而達到降低機房降溫的效果。一般氟泵自然冷和壓縮機製冷整合在一個系統裡,當室外低溫時,壓縮機停止運行,啟動氟泵完成製冷循環。當時外溫度較高時,則需要啟動壓縮機來完成製冷循環。以上自然冷方式可以單獨應用,或者組合應用,充分挖掘室外自然冷潛能,實現節能效果。近期在資料中心領域應用比較多的混合雙冷源方案,即為一種組合式的自然冷方案。機房空調設計兩組盤管,層疊安裝。高溫迴風首先經過第一組盤管進行預冷,此時預冷冷源可以是氟泵自然冷,也可以是冷卻塔提供的冷卻水,之後通過第二組盤管,第二組盤管可以是氟泵自然冷,也可以是壓縮機機械製冷,根據製冷需求進行自動切換,詳見圖2所示。▲ 圖2 兩種不同雙冷源自然冷方案通過“預冷+補冷”的控制思路,實現自然冷源利用最大化,從而實現空調裝置高能效,有效幫助降低資料中心PUE。以資料中心常用100kW空調為例,採用上述自然冷技術的機組,在以下區域應用,可以達到的製冷因子CLF如表1所示。在空調機組100%輸出的條件下,水側自然冷通過利用更長時長的自然冷,製冷因子更低,見表2所示。在空調機組75%輸出條件下,可以看到氟側機組的能效提升更快,在北京以及上海,均可表現出比雙冷源機組更好的節能效果,見表3所示。隨著負載率進一步降低,在空調機組50%輸出條件下,氟泵自然冷機組的能效已經全面優於水側自然冷雙冷源機組。不管採用那種雙冷源,北方全年室外環境溫度更低,可以收穫更好的節能效果。隨著負載率降低,氟泵自然冷工作時長顯著增加,氟泵功耗遠小於水泵功耗,在各地均可獲得更好的節能效果。可以看到,利用“預冷+補冷”設計方案,兩類雙冷源方案可達到系統級的製冷因子相當,在選擇具體方案時,需結合項目地自然條件進行選擇。液體冷卻是指利用高導熱性能的流體介質(諸如25%丙二醇諸如25%丙二醇,去離子水、冷卻液或製冷劑)而不是空氣來冷卻資料中心。液體直接參與資料中心關鍵發熱源(如伺服器內部高性能晶片)的熱量交換過程。液冷技術縮短了熱傳導路徑,使得熱量能夠更直接、更有效地從熱源匯出,進而顯著降低了對伺服器內部風扇輔助散熱的依賴,從而降低整體能耗與噪音水平。資料中心液冷技術的應用可細分為兩大主流類別:直接到晶片(Direct-to-Chip, DTC)冷卻技術,常被稱為冷板冷卻,其特點在於將冷卻液直接匯入至伺服器內部,通過緊貼晶片的冷板結構實現高效熱交換。浸沒式冷卻技術,該技術將整個或部分伺服器元件完全浸沒於非導電冷卻液中,實現熱量的全面、均勻散發。在DTC配置中,液體不直接與電子元件接觸,液體冷卻劑被泵送到解決伺服器內部電子元件散熱的冷板上。雖然大部分熱量都被冷板帶走了,但仍然需要風扇來幫助去除電路板層面的熱量,儘管風量和風速都非常低。在這種情況下,一些設計通過空氣將熱量從伺服器機箱交換出去,而另一些設計則需要在機架或行級使用熱交換器將熱量傳輸到主冷卻回路,具體見圖3冷板液冷系統原理圖。▲ 圖3 冷板液冷系統原理圖CDU是液體冷卻系統中必不可少的元件,可在整個系統中均勻分配冷卻液。CDU建立了一個獨立的二次側回路,與提供室外散熱的一次側回路隔離開,並調節和控製冷卻液的流量以保持二次側回路所需的溫度和流量。其次,CDU要採用高耐腐蝕性的不鏽鋼材質,確保與冷卻液的完美相容,有效防止腐蝕。設計上尤其要注重關鍵器件的冗餘備份,如電源、泵、感測器及過濾器等,確保系統在任何情況下都能穩定運行。同時,CDU需內建精準溫控系統,能有效消除伺服器CPU和GPU的熱衝擊問題。此外,配備補液罐以滿足長期運行需求,並設有自動排氣裝置以排除空氣,保持冷卻效率。1)供液溫度冷板液冷系統的供液溫度設計需充分考慮不同晶片及伺服器製造商的特定要求,如Dell可能接受高達32℃甚至更高的供液溫度,而Nvidia則設定在25℃至45℃的較寬範圍內。需要注意的是,必須嚴格避免供液溫度過低,以防止水蒸氣凝結現象的發生,這可能嚴重損害IT裝置的正常運行。此外,系統還需具備強大的穩定性,確保在一次側流量出現波動時,二次側仍能維持穩定的供液溫度,以保障整體散熱效能與裝置安全,見圖4所示。▲ 圖4 一次側流量波動,二次側仍可保障穩定供液溫度2)供液流量冷板液冷系統的供液流量設計是確保高效散熱與穩定運行的關鍵環節。CDU(冷量分配單元)在此過程中扮演著核心角色,負責精確調控一次流體與二次流體的流量。具體而言,二次流體需維持穩定的流速進入IT裝置,以在裝置滿載時能夠有效從冷板中帶走所有熱量,保持IT入口溫度的恆定。同時,一次流體的流量則根據需散熱的熱量動態調整,並依據CDU的接近溫度(ATD)進行調整,見圖5所示。▲ 圖5 一次側流量波動,二次側仍可保障穩定回液溫度為了確保流量控制的精準性,系統要採用壓差控制並輔以即時監控,以確保系統中的洩漏不會導致壓力下降。此外,通過CDU內,泵與電源的冗餘設計,系統能夠在關鍵業務場景下保障流量的連續供應,進一步提升整體系統的可靠性與穩定性。3)過濾要求冷板液冷系統要求冷卻液順暢通過冷板內極其微小的通道,這些通道的寬度可精細至低於50微米,甚至達到30微米以內。堵塞不僅會限制流量,甚至可能完全中斷IT裝置的冷卻,導致維護成本急劇上升,因此系統對冷卻液的過濾精度提出了嚴格標準。通常,這一精度需低於冷板通道的最小尺寸,業界經驗傾向於採用25微米或更細的過濾等級。此外,為確保系統長期保持清潔狀態,CDU(冷量分配單元)需持續進行線上過濾,這是維護系統高效運行與延長使用壽命的關鍵措施。4)流體選擇在設計冷板液冷系統的初期,選擇合適的流體化學成分及可靠的供應商非常重要。一旦確定流體策略,後續的任何更改都將涉及繁瑣且成本高昂的清洗與淨化過程。此外,流體的選擇還會在偵錯階段帶來顯著複雜性,包括循環測試、雜質沖洗以及系統氣泡的排除,這些工作對於每台伺服器及整體解決方案的順利運行都至關重要。在整個系統使用周期內,對液體的持續關注同樣不可或缺,需定期進行pH值、外觀、抑製劑濃度及污染物水平的檢測,以確保其性能穩定與系統的持續高效運行。同時,所有冷卻液均需遵循嚴格的儲存與處理規範,並配備適當的個人防護裝置以保障操作安全。在冷板液冷系統的二次側流體選擇中,存在三種主流方案。首先,去離子水配方液換熱效果優越,然而其腐蝕風險不容忽視,需採取額外措施加以防範。其次,乙二醇配方液雖具備一定的防腐能力,但其毒性相對較大,且在環保要求較高的地區,其排放處理成為一大現實問題。最後,丙二醇配方液作為Intel、Nvidia等業界巨頭推薦的選擇,由於其防腐效果更好,成為眾多使用者信賴的優選方案。在選擇時,需綜合考慮流體性能、成本、環保要求及安全性等多方面因素,以做出最適合自身需求的決策。5)故障預防和檢測在冷板液冷系統中,除了二次流體網路內其他感測器的監測外,CDU的嚴密監控與管理是預防並儘早發現故障的關鍵。資料中心尤為關注洩漏問題,大部分洩漏案例發生在manifold與伺服器軟管快速斷開附件處,對IT裝置影響很小。但伺服器機箱內部的洩漏,特別是發生在內部manifold、軟管與冷板之間的洩漏,則對IT裝置構成重大威脅。因此,實施額外過濾與感測器在內的防錯系統至關重要,這些措施不僅能在熱交換性能下降時提供預警,還能有效遏制人為錯誤導致的污染物增加或液體質量漏檢風險,從而全面提升系統的穩定性與安全性。液體輔助DTC冷卻:機箱級、閉環的獨立產品,帶有冷板、泵和散熱器,針對處理器的局部熱點。熱量通過伺服器內部的液體-空氣熱交換器消散。與液體-液體DTC冷卻相比,這種液體輔助DTC產品不需要和伺服器外部的液體進行熱交換,也不需要CDU或其他液體基礎設施或對現有基礎設施進行修改,同時能夠解決高密度點。全液冷板冷卻:目前大部分DTC冷卻伺服器僅覆蓋高功率、高發熱部件,如中央處理器(CPU)、圖形處理器(GPU),其他部件仍需通過風扇提供的氣流進行冷卻,包括記憶體、儲存、硬碟驅動器/固態驅動器、外圍元件互連高速通道/開放計算項目(OCP)卡和電源單元。全液冷板冷卻配置將為所有部件配置冷板,並使用液體進行冷卻,完全消除風扇,進一步提高電源使用效率(PUE)。根據執行階段液體的狀態,DTC還可以進一步分為單相和雙相兩類。在單相系統中,液體冷卻劑始終保持液態。在雙相系統中,液體冷卻劑蒸發以將熱量從液體中轉移出去,然後通過熱交換器冷凝並轉換回液態。負壓液冷:有三個氣密性較好的液腔,分別是主真空腔、儲液腔、輔真空腔。主真空腔和輔真空腔交替保持高真空度確保工藝冷媒從伺服器冷卻環路流回,儲液腔保持較低的真空度使工藝冷媒流進伺服器冷卻環路。二次泵採用低揚程潛水泵,安裝於儲液腔內部,當檢測到二次側供液溫度低於機房的露點溫度時,潛水泵將停止工作以確保不會有凝露產生。配有真空泵等負壓系統(包含氣液分離器、消音排氣口,空氣流量感測器),用以保證三個腔體的真空度。三個腔體各配有兩個氣動開關閥,一個接通真空泵,另一個接通大氣相連的氣液分離器,用於控制各個腔體的真空度,以確保液體順利循環。伺服器不同,伺服器運行的冷卻液體溫度不同。根據水溫,冷板液冷有不同的製冷系統架構設計方案。當一次側水溫在W32及以下時,一次側冷源不能完全依靠冷卻塔全年供應,需要補充額外的機械製冷,即冷凍水冷源機組,常見可用的冷凍水冷源機組有水冷冷水機組、風冷冷水機組等。1)同源液冷方案和風冷部分均採用冷卻塔同源冷卻塔方案,不同末端例如液冷部分(XDU)以及水冷型空氣處理機組(AHU)等所需負荷都由同一冷卻塔進行供應。2)非同源液冷方案採用冷卻塔,風冷部分採用機械製冷或冷機非同源方案,包括高水溫不同源風冷和高水溫不同源冷凍水方案。當採用不同源風冷補冷方案時,精密空調和液冷CDU分別採用不同的冷卻塔或乾冷器;當採用不同源冷凍水方案時,空氣處理機組(AHU)冷源採用冷水機組,液冷部分(XDU)冷源採用冷卻塔,見圖6所示。▲ 圖6 風液混合系統製冷架構3)風液方案:機房已有風冷精密空調裝置,需要部署少量液冷機櫃,此時集中式風液型CDU方案是優選方案。CDU和液冷機櫃間通過軟管連接,液冷伺服器中的熱量通過冷板,Manifold,以及管路傳遞至風液CDUSB 隨身碟管,最後散至機房,再通過機房空調將所有熱量帶至室外,見圖7所示。▲ 圖7 風液方案系統製冷架構在做液冷方案選擇時,需要考慮伺服器可接受的冷卻液溫度,以及機房條件,來選擇適合的製冷系統架構方案。在當前的AI算力範式下,擴大算力的一個基本邏輯是不斷提高“堆疊”密度,由此帶來(單位空間內)的能量密度持續上升,將進一步推動液冷技術的應用。基於此,對於未來智算中心液冷技術發展方向可以概括為以下兩點:目前主流的冷板式液冷仍然存在較大比例的熱量需要風冷解決,這對智算中心的複雜度造成了很大影響。進一步降低風冷佔比,是進一步提升單機櫃功率密度、降低資料中心複雜度的迫切需要。傳統冷板方案可進一步最佳化伺服器和冷板設計,將主要發熱器件儘可能使用冷板散熱,單相浸沒式液冷、全覆蓋冷板液冷也是可以大力發展的方向。單相浸沒式液冷在解決高功率晶片擴熱問題後,可以實現100%液冷。全覆蓋冷板方案可以較好地適配AI伺服器,而不用考慮普通伺服器的通用性要求。進一步降低風冷佔比後,可能會面臨以下難點:晶片層面由於製程改進的效果越來越有限,利用先進封裝技術將多個較小的晶片拼裝為一體的Chiplet技術正得到普遍的應用,其中的一個重要趨勢是3D堆疊,這意味著單位面積上的電晶體數量會繼續高速增長,如何將晶片封裝內的熱量有效的傳匯出來,將成為行業面對的一大挑戰。機櫃層面以NVIDIA GB200 NVL72為代表的解決方案目前採用風液混合模式,櫃內互聯採用大量的銅纜,對散熱風道的設計形成了一定的阻礙。隨著機櫃功率的進一步提高,需要提高冷板在各節點內的覆蓋率,向全液冷的方向演進。隨著AI晶片功率的進一步提升(1500W-2000W以上),風冷散熱器已達瓶頸(1000W),單相水冷板也將很快到達散熱能力瓶頸(1500W),相變散熱技術是必然的方向,包括相變浸沒液冷和相變冷板液冷。相變冷板又包括泵驅兩相(Pumped twophase)冷板和自驅動兩相(Passive 2-Phase)冷板等方向。相比較而言,泵驅兩相冷板國外有較多的研究,但其複雜度較高、可靠性問題比較難以解決;自驅動兩相冷板的技術基於環路熱管(LHP)技術,挑戰更大,但其具有解熱能力強、高可靠、易維運、長壽命等優點。 (零氪1+1)
AI圈都在緊張:一塊GPU能撐幾年?
過去三年,AI 行業就像在開加速掛。模型越跑越大,資料中心越建越多,輝達的股價越飛越高。但就在全球科技巨頭準備在未來五年砸下 1 兆美元造 AI 資料中心時,一道靈魂提問突然冒出來:一塊 GPU,到底能撐幾年?就是這麼一個看起來挺小的硬體壽命問題,已經成為了影響 AI 行業的最刺激、最敏感、最能影響股價的 KPI。包含在投資人、高管在內的各界人士似乎都在試圖判斷核心裝置的使用壽命。而讓人焦慮的是,這個問題沒有正式的標準答案。其中,Google、Oracle 和 Microsoft 給出的伺服器壽命最高可達 6 年,而像做空者 Michael Burry 這樣的懷疑者認為沒那麼長,可能也就 2~3年。AI圈都在緊張的一個問題當全球 Top 的一批公司計畫在未來五年投入 1 兆美元建設 AI 資料中心時,有一個項目讓高管與投資人都格外緊張:折舊。過去十年,伺服器、儲存裝置這些老貨都能用 5 到 7 年,大夥都心裡有數。但 GPU 不一樣。三年前才開始狂買,沒人知道它們到底能用多久、不值錢得有多快。“折舊”,顧名思義,就是將一項硬體資產的成本分攤到預計可用壽命內,在科技行業經常被提及且很關鍵。因為企業要預測它們購入的幾十萬張輝達 GPU 能使用多久、價值能保留多久。簡單理解:折舊=資產壽命。壽命越長,利潤越好看;壽命越短,利潤“啪”一下蒸發。如果你有關注過,你甚至會發現市面上對於GPU的折舊有完全不同的看法。AI GPU:一個全新的折舊難題AI GPU 在市場上的歷史還很短。輝達面向資料中心的首批 AI 晶片於 2018 年發佈,而真正讓 GPU 市場爆發的是 2022 年底 ChatGPT 的誕生。此後,輝達資料中心收入從 150 億美元飆升到截至 1 月的財年裡的 1152 億美元,足足十倍。“是三年、五年還是七年?”Latham & Watkins 的副主席 Haim Zaltzman(長期從事 GPU 融資業務)表示,目前沒有可參考的長期使用記錄,這對融資影響巨大。樂觀派:6年!業內不少巨頭給出的答案比較統一:6年!Google、Oracle、Microsoft 等基礎設施巨頭認為其伺服器可以用長達 6 年。但微軟似乎最近有所調整:它們也可能更快折舊——微軟在最新年度檔案中稱其計算裝置的壽命為 2 至 6 年。此外,一些輝達客戶認為 AI 晶片會長期保值,因為舊 GPU 對部分任務仍有需求。CoreWeave(大量採購 GPU 並出租)自 2023 年以來一直按照 6 年折舊周期來計提。CoreWeave CEO Michael Intrator 表示,他們對 GPU 壽命的判斷是“資料驅動”的。他曾對外表示,公司手上的 A100(2020 年發佈)全部租滿,還有一批因合同到期而釋放出來的 H100(2022 年發佈),立即以原價 95% 的水平售出。“所有的資料都在告訴我,這些基礎設施是保值的。”不過,市場卻啪啪打臉。CoreWeave 在財報後股價仍跌了 16%,今年高點以來已跌去 57%,反映了市場對 AI 過度投資的擔憂。Oracle 也從 9 月高點跌去 34%。懷疑者:GPU 只能用 2 到 3 年?最激烈的懷疑者之一是著名做空者 Michael Burry,他最近披露了自己正在做空輝達和 Palantir的倉位。為什麼?Burry 認為 Meta、Oracle、Microsoft、Google 和 Amazon 都高估了 AI 晶片的使用壽命,從而低估折舊。他認為伺服器的真實壽命只有 2–3 年,這會導致企業利潤被“虛高”。對於這個言論,Amazon 和 Microsoft 拒絕了回應;Meta、Google 與 Oracle 也尚未置評。黃仁勳暗示:前代 GPU 會提前“過氣”!AI 晶片可能在 6 年內貶值,原因包括:硬體磨損技術更新太快導致迅速過時雖可運行任務,但成本效益大幅降低輝達 CEO 黃仁勳早已有暗示。當輝達發佈新一代 Blackwell 時,他調侃說上一代 Hopper 價值會暴跌:“當 Blackwell 大規模出貨時,你根本送不出去 Hoppers。”“雖然還有些場景 Hopper 能用……但不多。”輝達現已從兩年一代加速到一年一代,AMD 也同步提速。亞馬遜今年早些時候還將部分伺服器資產的壽命從 6 年調降至 5 年,理由是 AI 技術迭代速度更快。與此同時,其它雲廠商卻在拉長新伺服器的壽命預估。微軟:別在單代 GPU 上“押重注”關於這個問題,微軟 CEO 納德拉在本周表示,公司正刻意拉開 GPU 採購節奏,不願在單一代產品上投入過多。他指出,現在輝達新舊 GPU 的競爭更激烈。“我們最大的經驗之一是輝達遷移速度變快了。我不希望被某一代 GPU 的 4–5 年折舊周期套住。”其實,說到底,還是這個行業發展實在太快了。首先,納德拉也提到了,輝達的發佈節奏從兩年一代變成了一年一代。即便硬體壽命沒變,但價值衰減速度暴漲。其次,雖然推理成本可以降低,但代際更新的GPU顯然,速度更快。而舊的 GPU 能跑,但速度變慢、整體下來的算力成本卻會變高,經濟上不划算了。再者,二手市場需求變幻莫測。有些行業用舊卡完全夠用,有些任務必須用最新架構。這就形成了極其神奇的價格波動。所以 GPU 並不是物理壽命上的壞掉,而是從實際業務上不划算了:“還能跑,但跑得不值錢。” (51CTO技術堆疊)
Anthropic CEO:五年內,AI 會真正替人,誰是第一批?
上周,在 Dreamforce 2025 峰會,Anthropic 聯合創始人兼 CEO Dario Amodei 說了一句引發廣泛關注的話:我對短期內 AI 的互補性依然樂觀,但我也必須坦白:兩到五年內,真正的替代將開始出現。這不是科技行業第一次有人談“AI 替代人類”。不同的是,Amodei 說這話時,Anthropic 內部已經發生了翻天覆地的變化: 他們的團隊裡,超過 90% 的程式碼已由 Claude 自動編寫,Bug 定位、系統偵錯甚至產品重構都由智能體完成。人類工程師的角色,不再是寫程式碼的人,而是審查 Claude 工作的人。這意味著,“AI 替代”不再是科幻電影裡的威脅,而是從 Anthropic 辦公室裡的一行行程式碼開始,在真實的生產系統裡一步步落地。但 Amodei 的警告,不止是給工程師的。“這不會只發生在開發者身上,”他補充說,“保險、金融、醫療等行業的企業客戶已經在用 Claude 執行端到端任務。被替代的第一批人,往往是工作流程裡那些最容易被自動化的崗位。”“AI 取代人類”這件事,從理論進入了倒計時。接下來,問題不再是AI 會不會替你,而是誰會先被替?他們是怎麼一步步被替的?而你,又該如何重新定義自己的角色?第一節|替人的起點:端到端能力今天很多人說 Claude 會寫程式碼,但 Dario Amodei 的重點根本不是寫程式碼,而是它能做完一件完整的事。他觀察到:以前 AI 只是幫你寫幾行程式碼,現在它可以偵錯系統、修復 Bug、完成整個部署流程。換句話說,不再是你寫主力、AI 輔助,而是 Claude 把一件任務從頭到尾做完,人來稽核修改。角色變了,關係也變了。在 Anthropic 內部,這個轉變已經開始落地。Dario 舉了一個他們真實發生的案例:我們最近發佈模型時,叢集出現 Bug,工程師找了好幾天沒找到。後來我們讓 Claude 去排查,它居然找出了一個大家都漏掉的隱藏問題。從 AI 按你指令做一件事,到 AI 自己能判斷、執行、修復,走完整個閉環。而且這不是偶發事件。Dario 明確說:“我們現在團隊裡的程式碼,90% 都是 Claude 寫的。人類的角色更像是編輯者、監督者。”實際上,工程師不再是執行者,而是把 AI 當成“實習生”或“外包員”來分配任務、檢視成果、保證質量。不僅是 Anthropic 內部,Claude 的企業使用者也在驗證這點。Anthropic 聯合創始人 Mike Krieger 在早前訪談中也透露:我們有客戶讓 Claude 連續運行 30 小時,完成了一項複雜的系統重構。30 小時,非人類值班,任務不中斷。這不再是對話模型,而是長期運行的虛擬執行者。它能記住目標、追蹤上下文、發現並糾正問題。做的不再是語言生成,而是任務交付。在10 月 20 日 與製藥巨頭禮來(Lilly)首席資訊官 Diogo Rau 的對話中,他說:“不要被我們能用 AI 做那些小事這種想法限制住。有一個現有流程,它有 20 個部分,你想在第 5 部分和第 12 部分引入 AI,這實際上很困難。但一年後,AI 可能就能從第 0 部分到第 20 部分端到端完成。”如果模型在一年後才足夠強大,而你那時才開始部署,就會再延誤兩年。要對技術進步的速度有信心,現在就開始為端到端變革做準備。這段話點破了替代的本質:因為替代不是某個時刻突然發生的,而是從“輔助”變成“交付”的那一刻開始的。當 Claude 不只是回答問題、生成文字,而是能:理解任務目標呼叫工具和代理自主運行並糾錯交付最終結果那你還需要幾個人做這件事嗎?我們過去總以為 AI 只是幫你快一點,但 Dario 的話意思很明確:Claude 能做端到端任務的那一刻,就意味著你不再需要中間這些環節。程式碼只是開始。真正替人的,不是 AI 變聰明了,而是它開始像系統一樣工作:持續執行、串聯流程、自主呼叫、糾錯最佳化。這套執行力,才是 AI 從工具向崗位躍遷的分水嶺。第二節|第一批被替:中間環節的人我們常以為被 AI 替代的會是低技術、低學歷、低門檻的崗位,比如文員、助理、客服。但 Dario Amodei 給出的判斷恰恰相反。他說:不是說人類沒有事情可做,但兩到五年內,整個經濟體系都會被深度重塑。影響最大的不是個別崗位,而是所有環節都可能被壓縮、被替換、被重組。換句話說,AI 替代的並不是誰技術差,而是誰在流程中傳遞資訊、而不是創造結果。只要一份工作裡,沒有核心創造,而只是把資訊從 A 傳到 B,再從 B 整理成 C,那這件事 Claude 能替你做,而且可能還更快、更便宜、不出錯。你會發現,很多看起來有技術含量的中間環節崗位,其實只是資訊搬運工:把會議內容整理成報告把客服反饋總結成周報把資料填進表格,再匯出成 PPT把行銷計畫分解為具體工單,下發至不同部門這些工作的共同特徵是:資訊已有步驟明確不涉及複雜判斷成果可驗證而這正是 AI 最擅長的工作。Mike Krieger 補充了一個 Anthropic 客戶的真實案例:有客戶在財務部門用 Claude 自動生成分析 Excel 表格,Claude 會自己理解資料、做推導、畫圖表。不是把 Excel 做成工具給人類用,而是 Claude 直接接管整套流程。所以這不是一場程式設計師和 AI 的戰爭,而是“中間環節的人”和“做完整件事的人”之間的更替。再進一步看,只要一家公司使用 AI 來:審查合同 → 整合文件 → 寫會議紀要歸檔工單 → 生成 FAQ → 自動發郵件撰寫預算 → 分析花費 → 出年度報告那些專門做這些事的崗位,還需要幾個人?因為過去一項工作要三四個人輪流做,現在 AI 一步跑完。這,就是第一批會被替的現實依據。Dario 的判斷不是基於情緒,而是他們內部已經發生的變化:我們沒有解僱工程師,但我們團隊裡,每個人的角色都在重新定義。這句話的意思很清楚:AI 不是一刀切,而是讓原本的人力變得邊緣化。先被替的,正是那些沒有決策權和創造權的崗位。第三節|新工作方法:不是幹活,而是指揮 AI 幹活AI 真正開始替人的那一刻,很多人最直覺的擔心是:那我們是不是要沒工作了?但 Dario Amodei 在 Dreamforce峰會上給出了一個出人意料的答案:你可能需要更多人,因為他們可以獲得更大的槓桿效應。工程師可以變得十倍更有生產力。AI 在替人,為什麼還需要更多人?IG Group 案例:他們的分析團隊每周節省 70 小時,但這些時間被重新投入到更高價值的戰略工作中。某些用例的生產力翻倍,3 個月就實現了 ROI。Cox Automotive 在 VinSolutions CRM 中使用 Claude 後,消費者諮詢響應和試駕預約數量翻了一倍多。Palo Alto Networks 讓 2500 名開發者使用 Claude,沒有任何 Claude 經驗的初級開發者完成複雜整合任務的速度快了 70%。這些案例的共同點是:人沒有被“替掉”,而是“角色”升級了。但這個轉變並不容易。一項針對 16 名經驗豐富的開源開發者的研究發現:當他們使用 AI 工具時,完成任務的時間反而增加了 19%。開發者預測 AI 會讓他們快 24%,結果卻慢了 19%。為什麼?因為有經驗的開發者有大量上下文,而 AI 沒有。他們需要把自己的問題解決策略改造成 AI 能理解的形式,還要花時間偵錯 AI 的輸出。但學會管理 AI,需要時間和練習。而時間,可能不多了。史丹佛大學的研究顯示,22-25 歲軟體開發者的就業率自 2022 年底以來下降了近 20%,因為 AI 工具正在接管過去分配給初級員工的常規編碼和資料任務。哈佛商學院教授 Christopher Stanton 警告說,隨著僱主重新定義早期職業角色,工資可能會下降。但與此同時,Salesforce 的首席人事官表示,公司正在大規模招聘新畢業生,2025 年夏天接納了 1000 名實習生。她指出,現在有很多 6 個月前根本不存在的新崗位。未來,不是所有人都會失業,是工作角色正在被重新定義。那麼,什麼樣的人能適應這種變化?真正高價值的人,能做到:清楚表達需求合理分配任務給 AI驗證 AI 的工作成果AI 出錯時知道怎麼糾正這,就是 “AI 統籌師”。Dario 在 Dreamforce 上明確表示:我很擔心,特別是人們適應的能力,因為工作變化得太快了。這不是危言聳聽,而是正在發生的現實。時間窗口,只有兩到五年。結語|不是會不會,而是什麼時候Dario 說得很明白:“不是替代,是重排分工。”AI 不再是工具,而是能獨立完成工作的虛擬同事。它能端到端跑完流程,找出人類漏掉的問題,連續工作不停歇。真正被替的,不是崗位,而是那種只會做一環、不懂用 AI 的人。Anthropic CPO Mike Krieger 則表示:我們建構的是可信賴的虛擬同事。不是輔助,是上崗;不是幫你,是幹完你幹不完的。接下來兩到五年,變化可能會比大多數人預期的更快。 (AI 深度研究員)